Loading...
机构名称:
¥ 1.0

摘要 新一波“基础模型”——用于生成文本(例如 ChatGPT)或图像(例如 MidJourney)的通用生成式 AI 模型——代表了 AI 的最新进展。但它们的使用也带来了一系列新的风险,这引发了关于可能的监管机制的持续讨论。我们在此提出了一个应纳入立法的具体原则:任何开发用于公共用途的基础模型的组织都必须展示一种可靠的检测机制来检测其生成的内容,作为其公开发布的条件。检测机制应在一个工具中公开提供,该工具允许用户查询任意内容项是否由该模型(全部或部分)生成。在本文中,我们认为这一要求在技术上是可行的,并将在降低许多领域新 AI 模型的某些风险方面发挥重要作用。我们还概述了该工具设计的一些选项,并总结了一些需要政策制定者和研究人员进一步投入的要点。

生成式人工智能模型应包括检测机制作为公开发布的条件

生成式人工智能模型应包括检测机制作为公开发布的条件PDF文件第1页

生成式人工智能模型应包括检测机制作为公开发布的条件PDF文件第2页

生成式人工智能模型应包括检测机制作为公开发布的条件PDF文件第3页

生成式人工智能模型应包括检测机制作为公开发布的条件PDF文件第4页

生成式人工智能模型应包括检测机制作为公开发布的条件PDF文件第5页